應用處理器(AP)將成為三維深度感測(3D Depth Sensor)首選主晶片方案。隨著應用處理器的數位訊號處理(DSP)運算效能愈來愈高,行動裝置開發人員將毋須再外掛專用的系統單晶片(SoC)處理影像感測器演算法,以實現藉由3D深度感測達成的手勢操控功能,可望大幅節省印刷電路板(PCB)設計空間與整體物料清單(BOM)成本。
Aptina市場行銷部門總監Mansour Behrooz表示,高通(Qualcomm)、聯發科等處理器大廠的應用處理器DSP效能,已可高速運行影像感測器演算法,因此行動裝置品牌商導入3D深度感測功能時,對於外掛的專用SoC倚賴性將會大幅降低。
事實上,高通為協助行動裝置品牌客戶打造更酷炫的人機介面功能,已於最新一代四核心驍龍(Snapdragon)805 Ultra HD處理器中,搭載進階雙鏡頭影像訊號處理器(ISP),具備客製化DSP,並擁有更先進、低功耗的整合感測處理能力。另外,聯發科先前亦斥資3,500萬美元購併瑞典DSP技術供應商Coresonic AB,取得相關核心技術,並於近期發布的八核心處理器–MT6592中整合高效能DSP,在在突顯出處理器內建的DSP性能已大幅提升。
過去,無論是結構光(Structured Light)或時間差(Time of Flight, ToF)技術所開發的手勢操控系統架構,皆須具備主動式光源、互補式金屬氧化物半導體(CMOS)影像感測器及接近智慧型手機處理器效能的SoC,其中SoC主要係負責將影像感測器收集的訊息運算成有意義的深度圖,供後端的作業系統(OS)和軟體進一步使用。
Behrooz指出,在處理器大廠紛紛把更高運算效能的DSP整合進處理器之下,行動裝置搭載的3D深度感測方案,可直接透過處理器而毋須外掛專用的SoC執行影像感測演算法。也因此,CMOS影像感測器廠商的合作夥伴已從DSP業者轉變為應用處理器廠商,以確保所開發的CMOS影像感測器和演算法可順利運行於各處理器大廠的平台中,並藉此打進其參考設計與供應鏈。